-
1 mutual information between two random variables
количество взаимной информации в случайных величинах
Мера уменьшения неопределенности случайной величины, возникающего вследствие того, что становится известным значение другой случайной величины, усредненного по знаниям последней; для дискретных случайных величин ее выражение имеет вид
где суммирование ведется по всему множеству значений хn, уm случайных величин Xn, ym; для непрерывных случайных величин ее выражение имеет вид
где интегрирование ведется по всему множеству значений xn, уm случайных величин Хn, Уm.
Примечания
1. Вместо термина «количество взаимной информации в случайных величинах» иногда употребляют выражение «количество информации о случайной величине, содержащееся в другой случайной величине».
2. Общая форма математической записи выражения количества взаимной информации, справедливая в произвольном случае, имеет вид
где Р(хn, уm), Р(хn) и Р(уm) —вероятностные меры, заданные соответственно на множествах значений {хn, уm), хn и уm случайных величии (Xn, Уm), Хn и Уm.
[Сборник рекомендуемых терминов. Выпуск 94. Теория передачи информации. Академия наук СССР. Комитет технической терминологии. 1979 г.]Тематики
EN
Англо-русский словарь нормативно-технической терминологии > mutual information between two random variables
-
2 normally independently distributed
1) Техника: с нормальным независимым распределением2) Математика: независимые нормально распределённые (о случайных величинах)3) Статистика: распредёленные независимо и нормально4) Контроль качества: независимая (величина), распределённая по нормальному закону (о случайных величинах)Универсальный англо-русский словарь > normally independently distributed
-
3 mutual information between two random sequence
количество взаимной информации в случайных последовательностях
Отнесенное к единице времени количество информации в отрезке случайной последовательности относительно соответствующего отрезка другой случайной последовательности в пределе при стремлении к бесконечности длины отрезка; ее выражение имеет вид
где n и m —числа компонент последовательностей и на длине отрезка T, а l (Хn; Уm)—количество взаимной информации в случайных величинах Хn и Уm.
Примечания
1. Вместо термина «количество взаимной информации в случайных последовательностях» иногда употребляют выражение «количество информации о случайной последовательности, содержащееся в другой случайной последовательности».
2. Количество взаимной информации в случайных последовательностях, отнесенное к одной компоненте, имеет вид
3. Длина отрезка Т может иметь размерность, отличную от времени.
[Сборник рекомендуемых терминов. Выпуск 94. Теория передачи информации. Академия наук СССР. Комитет технической терминологии. 1979 г.]Тематики
EN
Англо-русский словарь нормативно-технической терминологии > mutual information between two random sequence
-
4 normally
нормально, обычно normally closed switch ≈ нормально замкнутый выключатель normally convergent series ≈ нормально сходящийся ряд normally convex set ≈ нормально выпуклое множество normally correlated variables ≈ нормально коррелированные величины normally deductive codificate ≈ нормально дедуктивный кодификат normally distributed quantity ≈ (случайные) величины, распределенные по нормальному закону normally distributed random variable ≈ случайная величина, распределенная по нормальному закону normally distributed series ≈ нормально распределенный ряд normally embeddable semigroup ≈ нормально вложимая полугруппа normally hereditary space ≈ нормально наследственное пространство normally independently distributed ≈ независимые нормально распределенные (о случайных величинах) normally observable operator ≈ нормально наблюдаемый оператор normally open cover ≈ нормально открытое покрытие normally open switch ≈ нормально разомкнутый выключатель normally ordered set ≈ вполне упорядоченное множество normally resolvable operator ≈ нормально разрешимый оператор normally separated sets ≈ нормально отделимые множества normally separated space ≈ нормально отделимое пространство normally solvable equation ≈ нормально разрешимое уравнение normally summable series ≈ нормально суммируемый ряд - normally convergent - normally correlated - normally distributed - normally embedded - normally exhaustible - normally ordered - normally persistent - normally solvable adv нормально, обыкновенно, обычно, как правилоБольшой англо-русский и русско-английский словарь > normally
-
5 IID
1) Военный термин: Integrated Information Display, infrared intrusion detector, integrated instrument development, intermittently integrated Doppler2) Техника: image intensifier device, impact ionization diode, integrated information display system, intrinsic infrared detector3) Математика: Identically And Independently Distributed, Independent And Identically Distributed, независимые и одинаково распределённые (о случайных величинах)4) Физиология: Insulin dependent diabetes5) Электроника: Independent Identical Distributed6) Вычислительная техника: Interface IDentifier (COM)7) Полицейский термин: Internal Investigation Division8) Деловая лексика: International Institutional Delivery, Internet Infrastructure Division9) Программирование: итеративная и инкрементальная разработка (см. iterative and incremental development) -
6 NID
1) Компьютерная техника: node identifier2) Военный термин: National Intelligence Daily, Naval Intelligence Directorate4) Сокращение: New International Dictionary5) Вычислительная техника: Namespace IDentifier (URN)6) Энергетика: NID-технология, новая интегрированная десульфуризация, NID process, NID technology, new integrated desulfurization7) Сетевые технологии: Networked Intelligent Device, network information database, network interface device, сетевая информационная база данных, устройство сопряжения с сетью8) Контроль качества: normally independently distributed9) Безопасность: Network Intrusion Detection10) Расширение файла: Next ID, New Interactive Display (NEC)11) Фармация: non-interfering dilution12) Библиотечное дело: New India Digest -
7 mutual information between two random variables
Общая лексика: количество взаимной информации в случайных величинах (мера уменьшения неопределенности случайной величины, возникающего вследствие того, что становится известным значение другой случайной величины, усре), количество информации о случайной величине, содержащееся в другой случайной величине (мера уменьшения неопределенности случайной величины, возникающего вследствие того, что становится известным значение)Универсальный англо-русский словарь > mutual information between two random variables
-
8 nid
1) Компьютерная техника: node identifier2) Военный термин: National Intelligence Daily, Naval Intelligence Directorate4) Сокращение: New International Dictionary5) Вычислительная техника: Namespace IDentifier (URN)6) Энергетика: NID-технология, новая интегрированная десульфуризация, NID process, NID technology, new integrated desulfurization7) Сетевые технологии: Networked Intelligent Device, network information database, network interface device, сетевая информационная база данных, устройство сопряжения с сетью8) Контроль качества: normally independently distributed9) Безопасность: Network Intrusion Detection10) Расширение файла: Next ID, New Interactive Display (NEC)11) Фармация: non-interfering dilution12) Библиотечное дело: New India Digest
См. также в других словарях:
количество взаимной информации в случайных величинах — Мера уменьшения неопределенности случайной величины, возникающего вследствие того, что становится известным значение другой случайной величины, усредненного по знаниям последней; для дискретных случайных величин ее выражение имеет вид где… … Справочник технического переводчика
количество взаимной информации в случайных последовательностях — Отнесенное к единице времени количество информации в отрезке случайной последовательности относительно соответствующего отрезка другой случайной последовательности в пределе при стремлении к бесконечности длины отрезка; ее выражение имеет вид где … Справочник технического переводчика
Коэффициент корреляции — (Correlation coefficient) Коэффициент корреляции это статистический показатель зависимости двух случайных величин Определение коэффициента корреляции, виды коэффициентов корреляции, свойства коэффициента корреляции, вычисление и применение… … Энциклопедия инвестора
Единицы измерения информации — служат для измерения объёма информации величины, исчисляемой логарифмически.[1] Это означает, что когда несколько объектов рассматриваются как один, количество возможных состояний перемножается, а количество информации складывается. Не важно,… … Википедия
Снядецкий, Ян — Ян Снядецкий Jan Śniadecki … Википедия
Неравенство Маркова — в теории вероятностей даёт оценку вероятности, что случайная величина превзойдёт по модулю фиксированную положительную константу, в терминах её математического ожидания. Получаемая оценка обычно груба. Однако, она позволяет получить определённое… … Википедия
Единицы количества информации — Единицы измерения информации служат для измерения объёма информации величины, исчисляемой логарифмически.[1] Это означает, что когда несколько объектов рассматриваются как один, количество возможных состояний перемножается, а количество… … Википедия
Единицы измерения количества информации — Единицы измерения информации служат для измерения объёма информации величины, исчисляемой логарифмически.[1] Это означает, что когда несколько объектов рассматриваются как один, количество возможных состояний перемножается, а количество… … Википедия
Неравенство Чебышева — В Википедии существует другое неравенство, носящее имя Чебышева см. Неравенство Чебышева для сумм. Неравенство Чебышева, известное также как неравенство Биенэме Чебышева, это распространённое неравенство из теории меры и теории… … Википедия
Ян Снядецкий — Jan Śniadecki Ян Рустем. Портрет (1823) Имя при рождении: Jan Chrzciciel Władysław Śniad … Википедия
Апостериорная вероятность — условная вероятность случайного события при условии того, что известны апостериорные данные, т.е. полученные после опыта. Пример Рассмотрим приём сигнала на фоне аддитивного гауссовского белого шума . В этом случае принимаемое колебание будет… … Википедия